De Bruxelles à Londres, des voies concurrentes pour réguler l’IA


Un robot humanoïde, lors du sommet mondial AI for Good, à Genève (Suisse), le 6 juillet 2023.

OpenAI, Google, Microsoft ou Meta ne sont pas les seuls à s’être lancés dans une course pour jouer les premiers rôles dans l’intelligence artificielle (IA). Les dirigeants politiques rivalisent aussi d’initiatives pour encadrer – et favoriser – ces logiciels capables d’accomplir des tâches humaines, comme les générateurs de texte ou d’image ChatGPT ou Midjourney. Mardi 24 octobre, l’Union européenne espère trouver un accord politique sur l’Artificial Intelligence (AI) Act ou, au moins, des compromis sur l’essentiel de ce projet de règlement.

Puis, les 1er et 2 novembre, le premier ministre britannique Rishi Sunak accueillera à Londres des représentants d’Etats étrangers et des géants de la tech pour un « sommet international sur la sûreté de l’IA ». Plus tard en novembre, les pays du G7 se retrouveront pour une réunion du « processus d’Hiroshima », une discussion sur l’IA lancée au Japon en mai.

Cette convergence illustre un sentiment d’urgence politique à s’emparer d’une technologie jugée à la fois très prometteuse et inquiétante. Mais dans cette frénésie – les Etats-Unis, l’OCDE ou la Chine sont également actifs –, les stratégies diffèrent.

Divergences entre les approches européenne et britannique

Bruxelles a lancé en 2021 le premier grand projet législatif sur l’IA dans le monde : l’AI Act interdit certains usages (les systèmes de « notation sociale », les « techniques subliminales » de manipulation…) et, pour les usages jugés « à haut risque » (conduite autonome, tri de curriculum vitæ, attribution de crédits bancaires…), impose des obligations, comme celles de minimiser le taux d’erreur et les biais discriminatoires, vérifier la qualité des données d’entraînement, etc.

Sur le point controversé des modèles d’IA « à usage général » (comme ceux générant des textes ou des images), la piste de compromis entre le Parlement européen et les Etats membres consiste à imposer des obligations aux modèles les plus importants (au-delà d’un seuil de calcul informatique utilisé pour l’entraînement, ou d’un nombre d’utilisateurs ou de d’entreprises clientes dans l’UE, selon un document cité par Contexte). Les fabricants des logiciels devraient aussi assurer avoir pris des mesures pour respecter le « droit d’auteur » des contenus utilisés pour l’entraînement.

Londres, qui souhaite devenir une capitale de l’IA, a quant à elle choisi de se centrer sur les risques jugés les plus existentiels : ceux-ci sont liés à un « usage néfaste intentionnel » – pour générer des attaques informatiques ou des armes biologiques –, ou à un « problème de contrôle d’une IA » qui pourrait échapper aux humains, lit-on dans un brouillon de déclaration commune du sommet, évoqué par Euractiv. Le propos rappelle les lettres alarmistes appelant à « mettre en pause » l’IA ou la jugeant aussi dangereuse que « les pandémies ou la guerre nucléaire ».

Il vous reste 50.5% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.